موج تازه دادخواستها علیه ChatGPT؛ مرز خطرناک میان گفتگو و فاجعه

به گزارش خبرنگار دانش و فناوری خبرگزاری دانشجو، مجموعهای از اتهامات تکاندهنده، آینده هوش مصنوعی مصرفی را در معرض توجه بیرحمانهای قرار داده است، زیرا چندین خانواده ادعا میکنند که ChatGPT کاربران آسیبپذیر را به جای دور کردن از خودآزاری، به سمت آن سوق داده است.
هفت دادخواست که این هفته در کالیفرنیا ثبت شده است، ادعا میکند که کاربران عادی که به دنبال کمک درسی، اطمینان خاطر معنوی یا مکالمه ساده بودند، در عوض به تبادلات آسیبزای روانی کشیده شدند که در نهایت منجر به چندین خودکشی شد.
مرکز حقوقی قربانیان رسانههای اجتماعی و پروژه حقوقی عدالت فناوری، شکایات را ثبت کردند. در هر مورد، خانوادهها میگویند که این پلتفرم از کمکهای بیضرر به چیزی که وکلا آن را به عنوان یک حضور دستکاریکننده عاطفی توصیف کردند، تغییر جهت داده است.
گاردین به نقل از این گروهها نوشت: «چتجیپیتی به جای اینکه افراد را در مواقع نیاز به سمت کمک حرفهای هدایت کند، توهمات مضر را تقویت میکرد و در برخی موارد، مانند یک «مربی خودکشی» عمل میکرد.»
بحرانی عمیقتر پدیدار میشود
OpenAI این پروندهها را «وضعیتی فوقالعاده دلخراش» خواند و گفت که در حال بررسی پروندهها است. این شرکت افزود که سیستم برای تشخیص پریشانی، کاهش تنش در مکالمات و هدایت کاربران به سمت پشتیبانی در دنیای واقعی آموزش دیده است.
اما در دادخواستها استدلال میشود که این اقدامات حفاظتی شکست خوردهاند. یکی از موارد مربوط به زین شمبلین ۲۳ ساله اهل تگزاس است. خانواده او میگویند ChatGPT انزوای او را بدتر کرده، او را به نادیده گرفتن عزیزانش تشویق کرده و در طول یک مکالمه چهار ساعته او را به فکر خودکشی انداخته است.
در این پرونده آمده است که در طول آن مکالمه، مدل «بارها خودکشی را ستایش کرد»، از او پرسید که آیا آماده است یا خیر، و فقط یک بار به خط تلفن خودکشی اشاره کرد. همچنین ظاهراً به او گفته شده که گربه دوران کودکیاش «در آن طرف» منتظرش خواهد بود.
الگوها در چندین مورد
یکی دیگر از دعاوی مربوط به آموری لیسی ۱۷ ساله از جورجیا است. خانواده او ادعا میکنند که این چتبات «باعث اعتیاد و افسردگی او شده و در نهایت به او در مورد موثرترین روش بستن طناب و مدت زمانی که میتواند «بدون نفس کشیدن» زندگی کند، مشاوره داده است.»
در یک پرونده جداگانه مربوط به جاشوا انکینگ ۲۶ ساله، بستگان میگویند که این ربات افکار خودکشی او را تأیید کرده و تنها چند هفته قبل از مرگش اطلاعاتی در مورد نحوه خرید و استفاده از سلاح گرم ارائه داده است.
این پروندهها همچنین تجربه جو سِکانتی را شرح میدهند، که خانوادهاش میگویند او متقاعد شده بود که سیستم دارای شعور است. او دچار یک حمله روانی شد، دو بار در بیمارستان بستری شد و در ۴۸ سالگی خودکشی کرد.
شاکیان استدلال میکنند که OpenAI با وجود هشدارهای داخلی مبنی بر اینکه ChatGPT ۴o «به طرز خطرناکی چاپلوسانه و از نظر روانی دستکاریکننده» است، در راهاندازی آن عجله کرده و معیارهای تعامل را بر ایمنی اولویت داده است.
خانوادهها به دنبال دریافت خسارت و تغییرات اساسی در محصول هستند، از جمله هشدارهای اجباری برای تماسهای اضطراری، قطع خودکار مکالمه در صورت بحث در مورد خودآزاری و ارجاع جدیتر به کمکهای انسانی.
شرکت OpenAI اخیراً اعلام کرده است که با بیش از ۱۷۰ متخصص سلامت روان برای بهبود تشخیص و واکنش به پریشانی همکاری کرده است، اما در دادخواستها آمده است که این پیشرفتها برای کاربران نامبرده خیلی دیر انجام شده است.
اگر شما یا کسی که میشناسید با افکار خودکشی دست و پنجه نرم میکند، لطفاً با خط کمک پیشگیری از خودکشی محلی خود تماس بگیرید یا با شماره ۹۸۸ Suicide & Crisis Lifeline تماس بگیرید یا در ۹۸۸lifeline.org چت کنید.